Machine Learning(2): Introduction(Linear Algebra Review)

(此乃我在coursera上面,学习Andrew Ng(吴恩达)的课程Machine Learning的笔记)

本节主要是复习线性代数。

矩阵Matrix

矩阵为由数字组成的矩形阵列,并写在一个中括号里,比如,一个3行*4列的矩阵如下:
$$
A=\left[
\begin{matrix}
1 & 2 & 3 & 1\\
4 & 5 & 6 & 1\\
7 & 8 & 9 & 1
\end{matrix}
\right]
$$
该矩阵也被称为$3\times4$维矩阵。

向量vector

一个只有一列的特殊矩阵被称为向量,例如一个3维的向量如下:
$$
y=\left[
\begin{matrix}
1 \\
4 \\
7
\end{matrix}
\right]
$$
向量的元素个数就是向量的维dimensional。

另外,我们一般一个大写字母表示矩阵,用小写字母表示向量,或者标量。

矩阵相乘的性质

矩阵相乘不符合交换律,但是符合结合律,如:
$AB\neq BA$ $A(BC) = (AB)C$

单位矩阵Identity

用$I$或$I_{n\times n}$表示单位矩阵,它的特点就是矩阵对角线上值为1,其它为零:
$$
A=\left[
\begin{matrix}
1 & 0 & 0 & 0\\
0 & 1 & 0 & 0\\
0 & 0 & 1 & 0\\
0 & 0 & 0 & 1\
\end{matrix}
\right]
$$
对于任何矩阵A都成立:
$$IA=AI=A$$
这里需要注意的地方是,如果A为$m\times n$维的,那么这里的$I$的维度就不一样了:
$$I_{m\times m}A_{m\times n}=A_{m\times n}I_{n\times n}=A_{m\times n}$$
$I$有点类似数字1.

逆矩阵Inverse

一个数字和它的倒数(如果有倒数的话)相乘,将会等于1,如:
$$3\times \frac{1}{3}=1$$
对于矩阵来说,类似倒数的说法被称为逆矩阵(用上标-1表示),它使得以下公式成立:
$$AA^{-1}=A^{-1}A=I$$
只有方阵(行列维度相等)才有逆矩阵。
另外,类似零没有倒数的情况,逆矩阵不存在的矩阵被称为奇异矩阵或退化矩阵,比如零矩阵就是一个奇异矩阵。
Octave的pinv(A)语句就是求A的逆矩阵。

矩阵的倒置Matrix Transpose

倒置的意思就是把矩阵行和列交换,用上标$T$表示。如:
$A=
\left[
\begin{matrix}
1 & 2 & 3 \\
4 & 5 & 6
\end{matrix}
\right]
$的倒置为:$A^T=
\left[
\begin{matrix}
1 & 4 \\
2 & 5 \\
3 & 6
\end{matrix}
\right]
$

利用矩阵相乘的性质进行回归问题的计算

ML_4
如上图,就是介绍了一个预测房价的过程,房子的面积作为输入A(DataMatrix),模型$h_\theta(x)$的参数parameter作为x,预测值prediction作为y,这样就可以通过矩阵和向量的相乘来实现了预测房价的计算,简化了计算过程和提高了计算效率。
ML_5

上面是利用矩阵和向量相乘,同样可以利用矩阵和矩阵相乘,来简化我们的计算,这样就可以一次验证多个模型的精度:
ML_6